Фалшивите одобрения на знаменитости се превръщат в най-новото оръжие във войните за дезинформация, сеейки объркване преди изборите през 2024 г.
Тейлър Суифт не подкрепи бившия президент Доналд Тръмп миналия уикенд. Райън Рейнолдс не беше сниман с риза, подкрепяща Камала Харис. А Комунистическата партия на САЩ никога не е подкрепила вече несъществуващата кампания на президента Джо Байдън.
Но тези неверни твърдения за кампанията за 2024 г. и десетки други публикации с подобни фалшиви одобрения избухнаха в социалните медии в навечерието на изборите, според изследователи от News Literacy Project, безпартийна образователна група, която стартира нова база данни Четвъртък регистрира повече от 550 уникални случая на дезинформация, свързана с изборите.
Последният и най-видим пример за тези фалшиви твърдения се появи в неделя, когато Тръмп сподели публикация в своята платформа Truth Social, съдържаща изображения, създадени с помощта на изкуствен интелект, които предполагат голяма подкрепа от феновете на Swift, наричащи себе си „Swifties for Trump“. В отговор на подразбиращото се одобрение от поп иконата Тръмп написа: „Приемам!“
Суифт, която по-рано нападна Тръмп като „разпалващ огъня на бялото превъзходство и расизма“ по време на президентството си, подкрепи Джо Байдън през 2020 г., но все още не е подкрепила кандидат за президент в надпреварата през 2024 г.
Докато едно изображение в колажа, публикуван от Тръмп, показващо Суифт в облекло на „Чичо Сам“, очевидно беше преправено, друго, показващо млада жена на митинг, изглеждаше автентично.
Другите изображения, които претендират да показват големи групи усмихнати фенове, празнуващи Тръмп, съдържат някои от отличителните белези на изображения, генерирани от AI, според Лукас Хансен, съосновател на CivAI, организация с нестопанска цел, която повишава осведомеността за нарастващите възможности и опасностите на AI.
Тези изображения изглеждаха „супер пръснати, имат високо качество на камерата“ и „всички наистина изглеждат добре“, каза Хансен. Изображенията използват „силно боке и замъгляване на фона“, чести черти на изображения, генерирани от AI, каза той.
Проектът News Literacy Project казва, че е стартирал своето табло за управление на дезинформацията в четвъртък, за да повиши осведомеността за вирусни лъжи, които според него представляват „екзистенциална заплаха за демокрацията“ и са най-добре изследвани чрез групов анализ на стотици примери, вместо индивидуални проверки на факти.
Базата данни, която ще се актуализира редовно, проследява няколко категории политическа дезинформация – теории на конспирацията, лъжи относно политическите възгледи на кандидатите и фалшиви одобрения – но групата не измерва колко пъти тези вирусни публикации са споделени.
Приблизително 1 от 10 вирусни публикации, анализирани от News Literacy Project, съдържат фалшиви одобрения, според данни, предоставени изключително на CNN. Тези публикации описваха предполагаеми одобрения - или алтернативно, обществено пренебрежение - от известни личности, включително куотърбека на НФЛ Арън Роджърс, актьора Морган Фрийман, музиканта Брус Спрингстийн и политически фигури като бившата първа дама Мишел Обама.
Публикациите, позоваващи се на тези четири цифри, са събрали най-малко 10 милиона гледания, показва базата данни.
Понякога изследователите откриват отделни публикации, циркулиращи в социалните медии едновременно, в които се твърди, че една и съща знаменитост е подкрепила и осъдила кандидат, подчертавайки хаотичната и подвеждаща среда, с която се сблъскват потребителите.
„Като общо правило, ако видите знаменитост да носи тениска с изрично политическо послание, има голям шанс да е фалшива“, каза Дан Евън, старши мениджър в News Literacy Project.
Фалшивите одобрения, разпространяващи се в социалните медии, идват, когато технологичните платформи демонтират предпазните парапети и политиките за модериране, предназначени да намалят разпространението на опасна дезинформация.
Тези промени са най-остри в X, по-рано известен като Twitter, след като милиардерът Илон Мъск купи компанията и разруши вътрешните екипи, които работиха за спиране на разпространението на дезинформация за изборите, и възстанови забранените акаунти на видни теоретици на конспирацията и екстремисти.
Експерти казват, че проблемът е изострен от базирания на AI чатбот на X, Grok, който вече си навлече гнева на изборните служители за разпространението на невярна информация относно допустимостта на Харис на изборите през 2024 г. Миналата седмица X започна да позволява на потребителите да използват Grok за създаване на генерирани от AI изображения от текстови подкани, отприщвайки поток от фалшиво съдържание за Тръмп и Харис.
„В бъдеще Grok вероятно ще бъде един от основните източници на тези видове изображения, защото генерира висококачествени изображения, лесно е достъпен и умишлено е направен да има нисък процент на отказ“, каза Хансен, добавяйки, че е може да използва Grok, за да създаде изображения на „Swifties for Trump“, които много приличат на тези, които Тръмп сподели.
X не отговори на искания за коментар относно създаването на подвеждащи изображения, включващи политически кандидати.
Meta, която притежава Facebook и Instagram, също съкрати част от екипите си за почтеност на изборите, съобщи CNN по-рано. Гигантът на социалните медии каза миналата година, че „нито една технологична компания не прави повече или инвестира повече, за да защити изборите“, и обяви, че ще изисква политическите рекламодатели да разкриват, ако са използвали AI за създаване или промяна на изображения.
Но дори докато някои онлайн платформи се борят да обозначават изображения, генерирани от изкуствен интелект, а проверяващите факти развенчават най-новите вирусни лъжи, потокът от измислени материали може да окаже влияние.
„Ако многократно виждате тези лъжи, които преувеличават популярността на даден кандидат, това все още може да се задържи, дори ако знаете, че не е легитимно, докато превъртате покрай тях в вашата емисия“, каза Питър Адамс, старши вицепрезидент по изследванията на News Literacy Project, пред CNN .
Въпреки че пускането на публично достъпни инструменти за изкуствен интелект улесни създаването на подвеждащи твърдения, включително много от фалшивите одобрения, идентифицирани от News Literacy Project, други фалшиви изображения, циркулиращи в социалните медии, използват елементарен фотошоп.
Използването на AI за измисляне на политическа дезинформация е „не толкова разпространено и пагубно, колкото хората първоначално се страхуваха“, каза Адамс, добавяйки, че традиционните методи за коригиране на изображения и видеоклипове засега остават „много по-евтини, но също толкова ефективни“.